加载中...
问道不止,技近于道
使用Docker部署常见的webui 使用Docker部署常见的webui
前言目前常用的webui如下: AnythingLLM:文档(https://docs.anythingllm.com/),Github(https://github.com/Mintplex-Labs/anything-llm) Ope
2025-03-07
查看显卡之间的拓扑结构 查看显卡之间的拓扑结构
拓扑信息(TOPOLOGY)本篇主要讲解 nvidia-smi 命令的拓扑信息选项 topo,使用命令如下: nvidia-smi topo 该命令用于展示设备或者系统的拓扑结构。拓扑信息选项,支持的参数列表如下: [-m | --mat
2025-03-06
Ray集群的使用 Ray集群的使用
前言什么是Ray?Ray 是一个开源统一框架,用于扩展 AI 和 Python 应用程序(如机器学习)。它提供了用于并行处理的计算层,因此您无需成为分布式系统专家。Ray 使用以下组件最大限度地降低了运行分布式单个和端到端机器学习工作流的复
2025-03-05
使用SGLang部署deepseek大模型 使用SGLang部署deepseek大模型
软件及环境 DeepSeek-R1:https://github.com/deepseek-ai/DeepSeek-R1 SGLang:https://github.com/sgl-project/sglang,使用的镜像版本为:lmsys
2025-02-28
Nvidia驱动程序相关查询汇总 Nvidia驱动程序相关查询汇总
1. Nvidia显卡计算能力查询1.1 显卡计算能力是什么?计算能力(Compute Capability)并不是指gpu的计算性能。 nvidia发明计算能力这个概念是为了标识设备的核心架构、gpu硬件支持的功能和指令,因此计算能力也被
2025-02-26
DeepSeek概述与本地化应用评估 DeepSeek概述与本地化应用评估
1. 核心结论DeepSeek 包括推理模型(如 R1)、常规的大语言模型(如 V3)以及基于 R1 蒸馏的小模型,这些小模型的基座为 Qwen 或 Llama 系列。当前,R1 及其蒸馏的小模型是主要关注的对象。 模型部署:DeepSe
2025-02-25
使用vLLM多机多卡部署deepseek大模型(含调试技巧) 使用vLLM多机多卡部署deepseek大模型(含调试技巧)
软件及环境 DeepSeek-R1:https://github.com/deepseek-ai/DeepSeek-R1 vLLM:https://docs.vllm.ai/en/latest/index.html,使用的镜像版本为:vll
2025-02-14
在Linux中使用ollama私有化部署DeepSeek-R1大模型 在Linux中使用ollama私有化部署DeepSeek-R1大模型
前言DeepSeek 是一款开创性的开源大语言模型,凭借其先进的算法架构和反思链能力,为 AI 对话交互带来了革新性的体验。通过私有化部署,你可以充分掌控数据安全和使用安全。你还可以灵活调整部署方案,并实现便捷的自定义系统。 前置准备硬件环
2025-02-08
djangorestframework基础使用 djangorestframework基础使用
前言djangorestframework 也叫 drf,在使用 drf 之前我们需要先知道什么 REST。 REST(Representational State Transfer,表现层状态转移)是一种软件架构风格,它不是一种标准,也不
2025-01-10
fastapi框架 fastapi框架
@fastapi框架 fastapi,一个用于构建 API 的现代、快速(高性能)的web框架。 fastapi是建立在Starlette和Pydantic基础上的,Pydantic是一个基于Python类型提示来定义数据验证、序列化和文档
2024-12-13
NumPy的使用 NumPy的使用
NumPy的使用简介1.概述   NumPy是一个Python库,用于数值计算和处理数组。它是其他数据分析和机器学习库的底层库,提供了高效的多维数组运算功能。NumPy完全使用标准C语言实现,以提高运行效率。它是一款开源免费的库。并于199
2024-09-12
Python打包 Python打包
Python打包最近感兴趣想将开发的项目转成Package,研究了一下相关文章,并且自己跑通了,走了一下弯路,这里记录一下如何打包一个简单的Python项目,展示如何添加必要的文件和结构来创建包,如何构建包,以及如何将其上传到Python包
2024-05-16
1 / 3